Viele Jahre lang haben sich große Pornoplattformen darum bemüht, möglichst wenig transparent zu sein. Keine oder ausweichende Antworten auf Presseanfragen. Keine oder ausweichende Reaktionen auf Behörden. Nun verlangt das Gesetz über digitale Dienste (DSA) der EU, dass sich zumindest die größten von ihnen in die Karten schauen lassen – oder Strafen riskieren.
Als „sehr groß“ eingestuft hat die EU Ende 2023 die Porno-Plattformen Pornhub, XVideos, und Stripchat. Sie gelten als „very large online platform“, kurz: VLOP und müssen sich entsprechend an strengere Regeln halten. In den ersten Transparenzberichten lassen sich die drei Riesen jetzt tiefer in die Karten schauen als bisher. Auch XVideos-Schwesterseite XNXX wurde nachträglich als VLOP eingestuft, hat aber noch keinen Bericht vorgelegt.
Erstmals gibt es damit detaillierte Angaben über Anzahl und Gründe gemeldeter und gelöschter Inhalte. Bildbasierte Gewalt auf den großen Pornoseiten lässt sich somit etwas genauer beziffern. Gemeint sind Aufnahmen, die ohne Einverständnis der gezeigten Personen verbreitet wurden, umgangssprachlich bekannt als „Racheporno“. Es ist eine Form digitaler Gewalt, die vor allem Frauen trifft.
Aus den Transparenzberichten geht hervor: Allein bei XVideos und Pornhub gibt es im Durchschnitt täglich Dutzende neue Fälle von bildbasierter Gewalt. Diese Fälle machen allerdings nicht den Großteil der gelöschten Inhalte aus. Die überwiegende Mehrheit der Löschungen fassen die Plattformen leider unter wenig aussagekräftigen Sammelbegriffen zusammen wie „Verstoß gegen Richtlinien“ oder „Sonstige“. Die durch die Transparenzberichte gewonnene Transparenz ist deshalb sehr eingeschränkt. Es ist weiterhin unklar, welche Probleme auf den Plattformen wirklich dominieren.
Hinter den Kulissen prüfen den Berichten zufolge durchaus Menschen die Inhalte der Pornoseiten. XVideos schreibt von 43 Vollzeit-Stellen in vier Moderationsteams. Stripchat schreibt von „94 Personen“ – ohne zu benennen, wie viel Arbeitszeit sie aufwenden. Pornhub schreibt nur von einem „umfangreichen Team“, das allerdings jeden hochgeladenen Inhalt noch vor der Veröffentlichung prüfe. Alle drei Plattformen verwenden neben menschlicher Moderation auch automatische Tools wie etwa Uploadfilter.
Pornhub: Drei Monate Ausbildung für Moderator*innen
Der Transparenzbericht von Pornhub (Mutterkonzern: Aylo) bezieht sich – wie die anderen – auf den Zeitraum von Mitte Februar bis Ende Mai 2024; er umfasst also mehr als drei Monate. Die Pornoseite hat in dieser Zeit dem Bericht zufolge rund 272.000 Bilder und rund 27.000 Videos entfernt. Insgesamt wurden rund 18.000 Nutzer*innen gesperrt.
Die Klassifikation der gesperrten Inhalte stammt von der Plattform selbst. Am ehesten unter bildbasierte Gewalt fallen dürfte die Pornhub-Kategorie „nicht-einvernehmliches Verhalten“ („Non-Consensual Behavior“). Aus diesem Grund entfernt wurden auf Pornhub rund 1.900 Bilder und Videos, bezogen auf den Zeitraum des Berichts. Das entspräche 18 pro Tag.
Auch wegen Verdacht auf sogenanntes „Kindesmissbrauchsmaterial“ („child sexual abuse material“, kurz: CSAM, wie es im Bericht genannt wird) hat Pornhub Inhalte entfernt. In der Summe waren es rund 3.550 Bilder und Videos. Unter CSAM fallen je nach juristischer Definition auch Cartoons oder Inhalte mit Erwachsenen, die sich als minderjährig darstellen. Hier berichten wir mehr über die Fallstricke bei der Erfassung von CSAM.
Ein Großteil der Löschungen fällt laut Bericht unter die vage Sammelkategorie „Verstoß gegen die Plattform-Richtlinien“. Das Problem: Die Plattform-Richtlinien von Pornhub untersagen auch beispielsweise nicht-einvernehmliches Verhalten oder Inhalte mit Minderjährigen. Entsprechend ist unklar, wie die Zahlen aus dem Transparenzbericht zu deuten sind. Auf eine kurzfristige Presseanfrage zu den Gründen hat Pornhub zunächst nicht reagiert; wir werden den Artikel ergänzen, wenn wir eine Antwort erhalten.
Die Menschen, die Pornhub-Inhalte prüfen, müssen laut Bericht eine dreimonatige Schulung durchlaufen und am Ende eine Prüfung mit „perfekten“ Ergebnissen bestehen. Während ihrer Arbeit müssen sie laut Pornhub keine Mindestquoten erreichen, das heißt: Sie können sich für die Moderation mehr Zeit lassen. Unterstützt werde das Team durch automatische Erkennungs- und Filtersysteme.
Demnach nutzt Pornhub etwa eine Blockliste mit rund 40.000 gesperrten Begriffen in 40 Sprachen, darunter 21 EU-Sprachen. Mit dieser Blockliste würden die Metadaten von Uploads abgeglichen, darunter dürften etwa Titel, Videobeschreibungen und Tags fallen. Welche Begriffe genau auf dieser Liste stehen, legt Pornhub im Bericht nicht offen. Höchst wahrscheinlich gehören dazu einschlägige Begriffe rund um sexualisierte Gewalt an Kindern.
Laut Bericht prüfen Menschen auch die Audio-Spur eines Uploads, notfalls mithilfe von Software für Transkription und Übersetzung. Falls ein Audio-Inhalt nicht verstanden wird, werde der Inhalt nicht veröffentlicht, wie Pornhub betont.
Behörden scheinen sich derweil wenig für die Plattform zu interessieren. Nur in einem Fall aus Griechenland habe eine Strafverfolgungsbehörde die Löschung eines Inhalts angefordert. Insgesamt 22 Mal hätten Behörden Informationen über Nutzer:innen angefragt, davon 6 mal wegen nicht-einvernehmlichen Inhalten und 7 mal wegen Verdacht auf CSAM.
Nach eigenen Angaben hat Pornhub nur 31 Millionen monatliche Nutzer*innen in der EU – und läge damit unter der Schwelle von 45 Millionen, ab der die EU einen Dienst als „sehr große Online-Plattform“ einstufen darf. Die meisten Nutzer*innen kommen demnach aus Frankreich (5,6 Millionen), gefolgt von Deutschland mit 5,3 Millionen.
Ob die Nutzer*innen-Zahlen wirklich so gering sind, darüber wird Pornhub gewiss noch mit der EU streiten. Denn Pornhub und auch Stripchat sehen sich zu Unrecht als VLOP eingestuft und wehren sich juristisch. Es dürfte zugleich auch im Interesse einer Plattformen sein, die eigenen Zahlen in der EU kleinzuhalten, um sich nicht den besonderen Pflichten als VLOP unterwerfen zu müssen.
XVideos: Menschen prüfen nicht alles
Die Pornoseite XVideos (Mutterkonzern: WGCZ Holding) sortiert gelöschte Inhalte in andere Kategorien als Pornhub, wie man ihrem Transparenzbericht entnehmen kann. Vergleichbar sind die Angaben deshalb schwerlich. Ähnlich wie bei Pornhub sind die Kategorien zudem wenig aussagekräftig. So fällt die überwiegende Mehrheit der gelöschten Inhalte (rund 388.000) unter eine Kategorie namens „Übermäßige Verstöße“ („Excessive infractions“), gefolgt von der maximal vagen Kategorie „Sonstige“ („other“) mit rund 114.000 Löschungen. Auch XVideos hat auf eine kurzfristige Presseanfrage zu den Gründen zunächst nicht reagiert.
Eine ganze Reihe an zahlenmäßig kleineren Kategorien dürfte Phänomene bildbasierter Gewalt betreffen. Unter die Kategorie „nicht-einvernehmlich“ fallen rund 7.500 Löschungen, unter „nicht-einvernehmliche Filmaufnahmen“ rund 3.400 Löschungen, unter „Revenge Porn“ 131 Löschungen. Fasst man diese Kategorien zusammen, landet man bei 105 Löschungen pro Tag. Unter die Kategorie „Minderjährig“ fallen wiederum rund 5.420 Löschungen.
In einer Recherche Anfang 2022 haben wir aufgedeckt, wie automatische Empfehlungen auf XVideos Videos zum Thema Vergewaltigung auffindbar machen – etwa mithilfe von Schlagworten wie „Bewusstlos und gefickt“. 30 zweifelhafte Videos hatten wir gemeldet; einen Tag später waren 25 nicht mehr verfügbar.
Für XVideos sind dem Bericht zufolge vier Moderationsteams tätig, offenbar abgestuft nach Brisanz ihrer Aufgaben. Mit 23 Vollzeit-Stellen prüfen Menschen im Team „Basic review“ erstmalig Inhalte und Kanäle. 12 Vollzeit-Stellen sind im Team „Channel Oversight“ für „besondere Kanäle“ zuständig. Auch hier gibt sich XVideos nebulös, denn die Aufgaben des Teams benennt der Transparenzbericht so: „Einhaltung der Vorschriften sicherstellen und auftauchende Probleme adressieren“. Fünf Vollzeit-Stellen kümmern sich bei XVideos wiederum um „komplexere“ Fälle und drei Stellen bearbeiten gezielt Beschwerden und Lösch-Ersuchen.
Im Gegensatz zu Pornhub gibt XVideos nicht an, dass ausnahmslos jeder Inhalt vor der Veröffentlichung geprüft werde. Stattdessen benennt XVideos die Anzahl geprüfter Inhalte innerhalb des Zeitraums von gut drei Monaten. Demnach hätten die Teams von Februar bis Ende Mai rund 1,9 Millionen Bilder und Videos geprüft, rund 48.000 Accounts und rund 36.000 Darsteller*innen.
EU-Behörden interessieren sich dem Bericht zufolge noch weniger für XVideos als für Pornhub. Demnach gab es null Anordnungen wegen illegaler Inhalte und nur acht Auskunftsanfragen.
XVideos hat offenbar weniger Ambitionen, die eigenen Nutzer*innen-Zahlen kleinzureden. Selbstbewusst weist die Plattform rund 85 Millionen monatliche EU-Nutzer*innen aus, und liegt damit deutlich über der VLOP-Schwelle. Dennoch ist die Zahl überraschend: Noch im Jahr zuvor hatte XVideos eine deutlich höhere Zahl von 150 Millionen EU-Nutzer*innen genannt. Auf einer Infoseite liefert XVideos einen Erklärungsversuch, der davon handelt, wie schwierig sich solche Zahlen einschätzen ließen.
Die meisten XVideos-Nutzer*innen kommen laut Bericht aus Spanien (23,1 Millionen). In Deutschland ist XVideos mit rund 5,5 Millionen Nutzer*innen eher wenig frequentiert.
Stripchat: Echtzeit-Bilderkennung für Darsteller*innen
Stripchat ist im Gegensatz zu Pornhub und XVideos eine Plattform für Live-Streaming. Das heißt die Darsteller*innen präsentieren sich ihrem Publikum in Echtzeit. Stripchat gehört zum Firmenkosmos von xHamster. Das ist eine der meistbesuchten Pornoseiten der Welt, die von der EU allerdings bislang nicht als „sehr groß“ eingestuft wurde. Darauf angesprochen teilt die EU-Kommission mit: xHamster habe nach eigenen Angaben nur rund 29 Millionen EU-Nutzer*innen – und die Kommission werde „die Situation weiterhin sorgfältig beobachten“.
Nach Angaben in seinem Transparenzbericht hat Stripchat am häufigsten Maßnahmen wegen „Betrug“ ergriffen (rund 52.000 mal), gefolgt von „Umfang der Plattformdienste“ (rund 4.700 mal). Was genau man sich unter diesen Kategorien vorstellen darf, führt der Bericht jedoch nicht weiter aus.
Das Phänomen bildbasierte Gewalt lässt sich durch die von Stripchat gewählten Kategorien nur schwer umreißen. Unter „Verletzungen von Datenschutz und Privatsphäre“ fallen demnach 64 Fälle, unter „Gewalt“ 21 Fälle. Insgesamt 354 Fälle beziehen sich zudem auf „Schutz Minderjähriger“.
Ein Team aus 94 Menschen überwache die Inhalte auf Stripchat rund um die Uhr, heißt es im Bericht. Alle Inhalte, die nicht live erschienen, würden vor Veröffentlichung geprüft. Um Inhalte in Fremdsprachen zu verstehen, verwende das Team Übersetzungs-Software.
Außerdem setzt die Plattform offenbar automatische Bilderkennung („computer vision“) ein, um die Darsteller*innen in Echtzeit zu überwachen. Wenn etwa eine Person mit nicht sichtbarem Gesicht auftrete, schlage das System Alarm. Dann würde sich das Moderationsteam einschalten und prüfen, dass wirklich nur vorab verifizierte Darsteller*innen vor der Kamera auftreten.
Ähnlich wie Pornhub nennt Stripchat eine Nutzer*innen-Zahl deutlich unter der 45-Millionen-Schwelle. Demnach habe Stripchat nur rund 16 Millionen monatliche EU-Besucher*innen, die meisten davon (rund 3,2 Millionen) aus Deutschland.
Großer Bogen um Ausweiskontrollen
Auch auf andere Weise wirkt sich der DSA auf Pornoseiten aus, und zwar beim Thema Alterskontrollen. Dagegen wehren sich Plattformen seit Jahren vehement. Sie weigern sich, dass alle ihrer Abermillionen Besucher*innen ihr Alter nachweisen müssen, indem sie zum Beispiel ein amtliches Dokument zücken oder ihr Gesicht biometrisch scannen lassen. Genau das verlangen jedoch viele nationale Gesetze, unter anderem in Deutschland. Auch die EU drängt auf solche Schikanen: Der DSA erwähnt Alterskontrollen ausdrücklich, allerdings nicht als Pflicht, sondern als eine von mehreren möglichen Maßnahmen für VLOPs, um Minderjährige vom Besuch einer Plattform abzuhalten.
Während XVideos und Pornhub in der EU noch einen Bogen um Alterskontrollen machen, hat Stripchat offenbar einen kreativen Ansatz gewählt. Wer die Plattform unter der URL „de.stripchat.global“ aufruft, bekommt Anfang September zunächst nur geblurrte Inhalte zu sehen und soll erst einmal über den britischen Anbieter Yoti sein Alter nachweisen, zum Beispiel per Ausweis. Unter anderen URLs mit deutscher Subdomain ist Stripchat aber weiterhin ohne solche Schranken erreichbar. Unsere Presseanfrage zum Umgang mit Alterskontrollen hat Stripchat nicht beantwortet.
Satzbaufehler „Dagegen Plattformen wehren sich seit Jahren vehement.“
Liest ganz normal sich doch für mich? (Danke, korrigiert!)
noch viel üben Du musst 😉
> Großer Bogen um Ausweiskontrollen
Sowohl amtliche Dokumente als auch Gesichtsscans beinhalten Erpressungspotenzial, falls die Plattformen gehackt werden und die Datensätze im Darknet landen. Das verhindern zu wollen, klingt sinnvoll und vernünftig, sobald man sich mal kurz in die Plattformbetreiber hineinversetzt.
Gesicht und Ausweis vor Kamera ist auch ausgemachter Schwachsinn. Hier gehört Digitalisierung hin, mit anonymem Altersnachweis per Perso. Ach so, und weitestgehend umsonst für Anbieter, bitte keine Tricks mehr mit Infrastruktur. Throttling der anfragen gerne, falls X oder Facebook sich dranflanschen, dann reden wir über bezahlten hochfrequenzzugang usw. Aber nicht für die Indieklitsche.
Die Frage ist nur, ob das so funktioniert wie du es dir vorstellst – und ob die Leute dafür wirklich den Perso anstelle des Mittelfingers zeigen wollen. Ich würde mich eher von entsprechenden Seiten fernhalten als mich zu identifizieren und lieber irgendwo hingehen, wo man von dem Altersnachweiskram verschont bleibt.